Emprisonnée à tort : quand la reconnaissance faciale vire au cauchemar
L’intelligence artificielle au service de la police peut-elle se tromper au point d’emprisonner une innocente pendant plusieurs mois ? L’histoire d’Angela Lipps, résidente du Tennessee, illustre les dérives potentielles des technologies de reconnaissance faciale utilisées dans les enquêtes criminelles. Son calvaire judiciaire soulève des questions cruciales sur la fiabilité de ces outils et leurs conséquences dramatiques sur la vie des citoyens.
Cinq mois derrière les barreaux pour une fraude qu’elle n’a pas commise
Angela Lipps, âgée de 50 ans, mère de trois enfants et grand-mère de cinq petits-enfants, a vécu un cauchemar judiciaire qui a débuté en juillet 2025. Arrêtée pour des fraudes bancaires qu’elle n’avait jamais commises, cette Tennessienne s’est retrouvée enfermée pendant plus de cinq mois.
Son transfert de la prison du Tennessee vers celle du Dakota du Nord a marqué le début d’une épreuve qu’elle qualifie d’humiliante et traumatisante. Ce n’est qu’en décembre 2025 qu’elle a finalement retrouvé la liberté, après avoir fourni des preuves irréfutables de sa présence au Tennessee au moment des faits reprochés.
Une libération tardive malgré des preuves évidentes
Les autorités ont mis plusieurs mois à reconnaître leur erreur, malgré les éléments démontrant l’innocence de cette grand-mère. La présentation de preuves solides attestant de son absence sur les lieux du crime a finalement conduit à sa libération.
La technologie Clearview AI pointée du doigt
L’origine de cette erreur judiciaire réside dans l’utilisation d’un système d’intelligence artificielle de reconnaissance faciale développé par Clearview AI. Cette technologie a établi un lien erroné entre Angela Lipps et une photo présente sur une fausse pièce d’identité.
Le logiciel a comparé cette image frauduleuse avec des photographies disponibles sur Internet et les réseaux sociaux, identifiant à tort la Tennessienne comme la suspecte. Malgré d’autres étapes d’enquête menées par les forces de l’ordre avant la transmission du dossier au procureur, personne n’a détecté cette erreur fatale.
Des aveux à demi-mot des autorités
La police de Fargo a finalement admis « quelques erreurs » dans la conduite de cette affaire. Les autorités ont reconnu que l’utilisation de Clearview AI constituait une « partie du problème », annonçant l’interdiction de recourir à ce type d’intelligence artificielle dans les enquêtes futures.
Un traumatisme profond pour la victime d’erreur judiciaire
L’impact psychologique de cette mésaventure sur Angela Lipps s’avère considérable. Ses avocats évoquent un traumatisme durable, une perte de liberté injustifiée et une atteinte grave à sa réputation.
« Je suis juste contente que ce soit fini », a déclaré Angela Lipps suite à sa libération. Elle exprime également sa ferme intention de « ne jamais retourner dans le Dakota du Nord », État où elle a vécu cette épreuve traumatisante.
Des recours judiciaires à l’étude
Les représentants légaux d’Angela Lipps explorent actuellement différentes options judiciaires pour obtenir réparation. L’enquête qu’ils jugent bâclée pourrait donner lieu à des poursuites contre les autorités responsables de cette incarcération injustifiée.
Un classement sans suite qui laisse des questions
Les accusations portées contre la grand-mère ont été classées sans suite, une décision qui devait permettre la poursuite de l’enquête. Un accord entre le détective en charge du dossier, le procureur et le juge a conduit à la clôture définitive de cette affaire.
Cette résolution administrative ne répond toutefois pas aux interrogations légitimes sur les défaillances du système judiciaire et les mécanismes de contrôle des technologies utilisées par les forces de l’ordre.

